数据驱动学习是人工智能 (AI) 许多领域的最新技术,但原始统计性能次于人类的信任、理解和安全。为了在现实世界中大规模部署自主代理,具有各种背景和职责的人必须具备强大的学习和推理心理模型。然而,现代学习算法涉及复杂的反馈回路,缺乏语义基础,从人类的角度来看,它们是黑匣子。可解释人工智能 (XAI) [5] 领域应运而生,以应对这一挑战。XAI 中的大多数工作都侧重于深入了解在静态数据集上训练的分类和回归系统。在这项工作中,我们考虑由代理与其环境交互组成的动态问题。我们介绍了可解释模仿学习 (I2L) 的方法,该方法旨在通过分析黑箱代理的输入输出统计数据来建模其策略。我们称该策略模型为可解释的,因为它采用二叉决策树的形式,易于分解和可视化,可用于事实和反事实解释 [3]。我们通过明确学习代理用作决策基础的潜在状态表示,超越了模仿学习文献中大多数当前工作。在形式化我们的方法后,我们报告了在交通模拟器中实施的初步结果。
主要关键词
![arXiv:2006.11309v1 [cs.AI] 2020 年 6 月 19 日PDF文件第1页](/bimg/7/7b0bbc4f084d3d0027c7925d2600cf108e1ce5a1.webp)
![arXiv:2006.11309v1 [cs.AI] 2020 年 6 月 19 日PDF文件第2页](/bimg/c/c84b4a09264d92b4208a3d5f381c3db0dfcd99fd.webp)
![arXiv:2006.11309v1 [cs.AI] 2020 年 6 月 19 日PDF文件第3页](/bimg/1/1b548f2e85efd356bcfe2da54a06879c5886bd47.webp)
![arXiv:2006.11309v1 [cs.AI] 2020 年 6 月 19 日PDF文件第4页](/bimg/0/0bcbf8aecc24777e51eb87169e6a5b91b7089a3f.webp)
![arXiv:2006.11309v1 [cs.AI] 2020 年 6 月 19 日PDF文件第5页](/bimg/d/db3025cc3f56171f5a1f50ea92d4707080fa675d.webp)
